因果鉴定是因果推理文献的核心,在该文献中提出了完整的算法来识别感兴趣的因果问题。这些算法的有效性取决于访问正确指定的因果结构的限制性假设。在这项工作中,我们研究了可获得因果结构概率模型的环境。具体而言,因果图中的边缘是分配的概率,例如,可能代表来自领域专家的信念程度。另外,关于边缘的不确定的可能反映了特定统计检验的置信度。在这种情况下自然出现的问题是:给定这样的概率图和感兴趣的特定因果效应,哪些具有最高合理性的子图是什么?我们表明回答这个问题减少了解决NP-HARD组合优化问题,我们称之为边缘ID问题。我们提出有效的算法来近似此问题,并评估我们针对现实世界网络和随机生成图的算法。
translated by 谷歌翻译
我们研究在有关系统的结构侧信息时学习一组变量的贝叶斯网络(BN)的问题。众所周知,学习一般BN的结构在计算上和统计上具有挑战性。然而,通常在许多应用中,关于底层结构的侧面信息可能会降低学习复杂性。在本文中,我们开发了一种基于递归约束的算法,其有效地将这些知识(即侧信息)纳入学习过程。特别地,我们研究了关于底层BN的两种类型的结构侧信息:(i)其集团数的上限是已知的,或者(ii)它是无菱形的。我们为学习算法提供理论保证,包括每个场景所需的最坏情况的测试数量。由于我们的工作,我们表明可以通过多项式复杂性学习有界树木宽度BNS。此外,我们评估了综合性和现实世界结构的算法的性能和可扩展性,并表明它们优于最先进的结构学习算法。
translated by 谷歌翻译
深神经网络(DNN)已成为许多应用程序域(包括基于Web的服务)的重要组成部分。这些服务需要高吞吐量和(接近)实时功能,例如,对用户的请求做出反应或反应,或者按时处理传入数据流。但是,DNN设计的趋势是朝着具有许多层和参数的较大模型,以实现更准确的结果。尽管这些模型通常是预先训练的,但是在如此大的模型中,计算复杂性仍然相对显着,从而阻碍了低推断潜伏期。实施缓存机制是用于加速服务响应时间的典型系统工程解决方案。但是,传统的缓存通常不适合基于DNN的服务。在本文中,我们提出了一种端到端自动化解决方案,以根据其计算复杂性和推理延迟来提高基于DNN的服务的性能。我们的缓存方法采用了DNN模型和早期出口的自我介绍的思想。提出的解决方案是一种自动化的在线层缓存机制,如果提前出口之一中的高速缓存模型足够有信心,则可以在推理时间提早退出大型模型。本文的主要贡献之一是,我们将该想法实施为在线缓存,这意味着缓存模型不需要访问培训数据,并且仅根据运行时的传入数据执行,使其适用于应用程序使用预训练的模型。我们的实验在两个下游任务(面部和对象分类)上结果表明,平均而言,缓存可以将这些服务的计算复杂性降低到58 \%(就FLOPS计数而言),并将其推断潜伏期提高到46 \%精度低至零至零。
translated by 谷歌翻译
妥协的合法帐户是将恶意内容传播到在线社交网络(OSN)中的大型用户基础的一种方式。由于这些报告对用户以及OSN上其他用户造成了很多损害,因此早期检测非常重要。本文提出了一种基于作者身份验证的新方法,以识别受损的Twitter帐户。由于该方法仅使用从上一个用户的帖子中提取的功能,因此有助于尽早检测以控制损坏。结果,可以以令人满意的精度检测到没有用户配置文件的恶意消息。实验是使用Twitter上折衷帐户的现实世界数据集构建的。结果表明该模型适用于由于达到89%的精度而适用于检测。
translated by 谷歌翻译
Edge Computing通过同时且连续执行延迟敏感的机器学习(ML)应用程序来启用智能物联网的系统。这些基于边缘的机器学习系统通常是电池供电的(即能量限制的)。他们使用具有不同计算性能的异质资源(例如CPU,GPU和/或FPGA)来满足ML应用程序的延迟约束。面临的挑战是,就这些系统的能量和延迟约束分配了在异质边缘计算系统(HEC)上对不同ML应用程序的请求。为此,我们研究和分析资源分配解决方案,这些解决方案可以在考虑能量限制的同时增加准时任务完成率。重要的是,我们研究了边缘友好的(轻巧)多目标映射启发式方法,这些启发式启发式方法不会偏向于特定的应用程序类型以实现目标;取而代之的是,启发式方法在其映射决策中考虑了同一ML应用程序中的“公平性”。绩效评估表明,根据潜伏期和能源目标,尤其是在低至中等请求的到达率方面,提出的启发式胜诉率优于异质系统中广泛使用的启发式方法。我们观察到准时任务完成率提高了8.9%,节能提高了12.6%,而没有在边缘系统上施加任何明显的开销。
translated by 谷歌翻译
道路维护规划是道路资产管理的一个组成部分。维护和康复(M&R)实践中的主要挑战之一是确定维护类型和时间。本研究提出了一种基于长期路面性能(LTPP)数据库的强化学习(RL)的框架,以确定M&R实践的类型和时间。首先以所提出的算法开发预测DNN模型,其用作RL算法的环境。对于RL模型的策略估计,开发了DQN和PPO模型。然而,由于更好的收敛性和更高的样本效率,终点被选中了PPO。本研究中使用的指标是国际粗糙度指数(IRI)和车辙深度(RD)。最初,我们将裂化度量(cm)视为第三指示器,但是由于与其他指标相比的数据少得多,因此被排除在外,导致结果的准确性较低。此外,在成本效益计算(奖励)中,我们考虑了M&R治疗的经济和环境影响。使用Palate 2.0软件评估了成本和环境影响。我们的方法是在德克萨斯州德克萨斯州的23公里长的六车道高速公路的假设案例研究中进行了测试。结果提出了一个20年的M&R计划,其中道路状况保持在出色的条件范围。由于道路的早期阶段处于良好的服务水平,因此在第一年不需要重型维护实践。后来,经过重型的M&R作用,有几个1-2岁的治疗方法。所有这些都表明拟议的计划具有逻辑结果。决策者和运输机构可以使用此计划进行更好的维护实践,以防止预算浪费,同时最大限度地减少环境影响。
translated by 谷歌翻译
解决符号数学一直是在人类聪明才智的舞台中,需要组成和复发。然而,最近的研究表明,诸如变压器的大规模语言模型是普遍的,并且可以令人生意的是,可以训练作为求解复杂数学方程的顺序序列任务。这些大型变压器模型需要有时的培训数据,以概括到看不见的象征性数学问题。在本文中,我们通过使用语言翻译的首先预先预留变压器模型来解决符号任务的示例有效的方法,然后进行微调预先调整佩带的变压器模型来解决符号数学的下游任务。我们通过预磨模的模型实现了与预磨模的集成任务的可比准确性,同时使用大约1.5美元的数量级培训样本,了解符号数学的最先进的深度学习。与集成相比,差分方程任务的测试精度相比,与语言翻译中不存在的更高订单递归相比,相比之下。我们用不同的语言翻译预防我们的模型。我们的结果显示在解决符号数学任务中的语言偏见。最后,我们研究了微调模型对符号数学任务对分发班次的鲁棒性,我们的方法在函数集成的分布换档方案中概得更好。
translated by 谷歌翻译
转移学习中最关键的问题之一是域适应的任务,其中目标是将在一个或多个源域中培训的算法应用于不同(但相关)的目标域。本文在域内存在协变量转变时,涉及域适应。解决此问题的现有因果推断方法的主要限制之一是可扩展性。为了克服这种困难,我们提出了一种避免穷举搜索的算法,并识别基于Markov毯子发现的源和目标域的不变因果特征。 SCTL不需要先前了解因果结构,干预措施的类型或干预目标。有一个与SCTL相关的内在位置,使其实现实际上可扩展且稳健,因为本地因果发现增加了计算独立性测试的力量,并使域适配的任务进行了计算地进行了易行的。我们通过低维和高维设置中的合成和实际数据集显示SCTL的可扩展性和稳健性。
translated by 谷歌翻译
机器学习系统的设计通常需要交易不同的目标,例如,深度神经网络(DNN)的预测错误和能耗。通常,没有任何单一的设计在所有目标中都表现良好,因此,找到帕累托最佳的设计令人感兴趣。通常,测量不同的目标会产生不同的成本;例如,测量DNN的预测误差的成本比测量预先训练的DNN的能源消耗的数量级高,因为它需要重新训练DNN。当前的最新方法没有考虑到客观评估成本的这种差异,可能会浪费对目标功能的昂贵评估,从而获得很少的信息增益。在本文中,我们开发了一种新颖的分离成本感知方法,我们称为灵活的多目标贝叶斯优化(Flexibo)来解决此问题。 Flexibo通过每个目标的测量成本来加权帕累托区的超量。这有助于我们平衡收集新信息与通过客观评估获得的知识的费用,从而阻止我们几乎没有收益进行昂贵的测量。我们在七个最先进的DNN上评估了图像识别,自然语言处理(NLP)和语音到文本翻译的Flexibo。我们的结果表明,鉴于相同的总实验预算,Flexibo发现的设计比下一个最佳最佳多目标优化方法低4.8%至12.4%,具体取决于特定的DNN体系结构。
translated by 谷歌翻译
Saliency detection is one of the most challenging problems in image analysis and computer vision. Many approaches propose different architectures based on the psychological and biological properties of the human visual attention system. However, there is still no abstract framework that summarizes the existing methods. In this paper, we offered a general framework for saliency models, which consists of five main steps: pre-processing, feature extraction, saliency map generation, saliency map combination, and post-processing. Also, we study different saliency models containing each level and compare their performance. This framework helps researchers to have a comprehensive view of studying new methods.
translated by 谷歌翻译